Siri wird schlauer

iOS 27: Siri soll endlich mehrere Befehle gleichzeitig verarbeiten können

Apple überarbeitet Siri grundlegend: Mit iOS 27 soll der Sprachassistent mehrere Anfragen gleichzeitig verarbeiten und zur Chatbot-Alternative werden.

Von   Uhr

Quickread: Auf einen Blick
  • Siri kann in iOS 27 erstmals mehrere Befehle in einer Anfrage verarbeiten, etwa Route suchen und direkt versenden.
  • Apple entwickelt eine eigenständige Siri-App mit Chatbot-Funktionen, die mit ChatGPT und Gemini konkurrieren soll.
  • Über die neue Extensions-Funktion lassen sich Drittanbieter-Chatbots wie Claude oder Gemini in Siri integrieren.

Apple plant mit iOS 27 eine umfassende Überarbeitung von Siri, die mehrere Anfragen gleichzeitig verarbeiten kann. Der Sprachassistent wird zur vollwertigen Chatbot-Alternative ausgebaut und erhält eine eigenständige App mit Erweiterungsfunktionen. Die Enthüllung ist für die WWDC am 8. Juni geplant, die Veröffentlichung erfolgt voraussichtlich im September.

Siri bekommt Multitasking-Fähigkeiten

Mit iOS 27 wird Siri erstmals in der Lage sein, mehrere Befehle in einer einzigen Anfrage zu verarbeiten. Wie Bloomberg berichtet, können Nutzende dann beispielsweise gleichzeitig nach einem Ort suchen und die Route direkt an eine Person senden – alles in einem Arbeitsschritt. Bislang war Siri auf einzelne Befehle beschränkt, auch wenn Folgefragen ohne erneute Aktivierung möglich waren.

Diese Funktion ist Teil der umfangreichen Apple-Intelligence-Updates, an denen Apple seit Juni 2024 arbeitet. Der Sprachassistent erhält deutlich mehr Kontext über die Nutzenden und kann Informationen vom Bildschirm erfassen sowie Aktionen zwischen verschiedenen Apps ausführen.

Chatbot erklärt!

Ein Chatbot ist ein KI-gestütztes Programm, das natürlichsprachliche Konversationen mit Nutzenden führen kann. Anders als herkömmliche Sprachassistenten versteht ein Chatbot komplexe Anfragen mit mehreren Teilschritten und kann längere Unterhaltungen mit Kontextverständnis führen. Bekannte Beispiele sind ChatGPT von OpenAI, Claude von Anthropic oder Gemini von Google.

Siri wird zum vollwertigen Chatbot

Apple plant einen grundlegenden Wandel in der Funktionsweise von Siri. Der Assistent soll zu einem Chatbot werden, der mit Claude, ChatGPT und Gemini konkurrieren kann. Im Gegensatz zu den bisherigen Einschränkungen werden Chatbots problemlos mit natürlichsprachlichen Anfragen fertig, die mehrere Variablen und auszuführende Aktionen enthalten.

Für die Chatbot-Interaktionen entwickelt Apple eine eigenständige Siri-App, die tief in iOS, iPadOS und macOS integriert sein wird. Die App soll eine Konversationshistorie bieten und sowohl Text- als auch Spracheingaben unterstützen – ähnlich wie die Apps von OpenAI oder Anthropic.

Erweiterte Funktionen und Integration

Der überarbeitete Sprachassistent wird Zugriff auf das Web erhalten, um Informationen zusammenzufassen. Diese Funktion könnte als „World Knowledge Answers“ bezeichnet werden. Zudem ist eine Integration mit Image Playground für die Bildgenerierung geplant.

Apple testet außerdem eine aktualisierte Version der Tastatur, die KI-gestützte Grammatikvorschläge und alternative Formulierungen anbieten soll – zusätzlich zur bisherigen Rechtschreibkorrektur. Ob diese Funktion tatsächlich in iOS 27 enthalten sein wird, steht allerdings noch nicht fest.

Drittanbieter-Chatbots können integriert werden

Eine wichtige Neuerung: Apple öffnet Siri für Chatbots von Drittanbietern. Über eine neue „Extensions“-Funktion können Nutzende in den Einstellungen auswählen, welche KI-Dienste sie mit Siri verbinden möchten. Neben der bestehenden ChatGPT-Integration sollen künftig auch Google Gemini und Anthropic Claude verfügbar sein.

Der App Store erhält einen eigenen „Extensions“-Bereich, der als Marktplatz für KI-Integrationen von Drittanbietern dienen wird. Diese Öffnung beendet die bisherige Exklusivpartnerschaft mit OpenAI.

Technische Basis und Veröffentlichung

Die neuen Siri-Funktionen basieren auf einer Zusammenarbeit mit Google. Apple nutzt ein maßgeschneidertes KI-Modell, das vom Gemini-Team entwickelt wurde und mit Gemini 3 vergleichbar sein soll. Auch die Serverinfrastruktur von Google mit Tensor Processing Units kommt zum Einsatz, da Apple noch nicht über die nötige Infrastruktur verfügt, um Chatbot-Anfragen von Milliarden aktiver Geräte zu bewältigen.

Die Präsentation der neuen Funktionen ist für die WWDC 2026 geplant, die am 8. Juni beginnt. Unklar ist noch, ob alle Siri-Funktionen bereits in der ersten Entwickler-Beta von iOS 27 verfügbar sein werden oder ob einige Features erst später nachgereicht werden. Apple plant, die intelligentere Version von Siri bis September einzuführen, wobei einzelne Funktionen möglicherweise erst in einem späteren iOS-27-Update im Frühjahr 2027 erscheinen. Wie bei den ersten Apple-Intelligence-Funktionen werden die neuen Siri-Fähigkeiten vermutlich mit einem „Vorschau“-Label versehen, das auf den Beta-Status hinweist.

Mehr zu diesen Themen: